AI资讯新闻榜单内容搜索- LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  LLM
AI信任危机之后,揭秘预训练如何塑造机器的「可信灵魂」

AI信任危机之后,揭秘预训练如何塑造机器的「可信灵魂」

AI信任危机之后,揭秘预训练如何塑造机器的「可信灵魂」

在人工智能的前沿领域,大语言模型(Large Language Models,LLMs)由于其强大的能力正吸引着全球研究者的目光。在 LLMs 的研发流程中,预训练阶段占据着举足轻重的地位,它不仅消耗了大量的计算资源,还蕴含着许多尚未揭示的秘密。

来自主题: AI技术研报
7130 点击    2024-04-25 17:22
Llama架构比不上GPT2?神奇token提升10倍记忆?

Llama架构比不上GPT2?神奇token提升10倍记忆?

Llama架构比不上GPT2?神奇token提升10倍记忆?

近日,朱泽园 (Meta AI) 和李远志 (MBZUAI) 的最新研究《语言模型物理学 Part 3.3:知识的 Scaling Laws》用海量实验(50,000 条任务,总计 4,200,000 GPU 小时)总结了 12 条定律,为 LLM 在不同条件下的知识容量提供了较为精确的计量方法。

来自主题: AI资讯
4239 点击    2024-04-10 19:11
企业内部如何更好落地大模型?我们走访了 10+ 先行者

企业内部如何更好落地大模型?我们走访了 10+ 先行者

企业内部如何更好落地大模型?我们走访了 10+ 先行者

在微软推出 Copilot 后,工作场景中如何落地 LLM 很快成为业内关注的重点。钉钉、飞书等办公软件也快速在最新版本中集成 AI 功能。对于软件企业而言,在已有的软件上增加 AI 功能,并带来新产值,已经被 Notion、多邻国等产品所验证。除此之外,在企业生产场景中,集成 LLM 的能力,并为企业组织赋能,也成为人们关注 AI 落地的一个视角。

来自主题: AI资讯
5965 点击    2024-04-03 11:43
如何从头开始编写LoRA代码,这有一份教程

如何从头开始编写LoRA代码,这有一份教程

如何从头开始编写LoRA代码,这有一份教程

作者表示:在各种有效的 LLM 微调方法中,LoRA 仍然是他的首选。LoRA(Low-Rank Adaptation)作为一种用于微调 LLM(大语言模型)的流行技术,最初由来自微软的研究人员在论文《 LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS 》中提出。

来自主题: AI技术研报
6700 点击    2024-03-20 16:16
当prompt策略遇上分治算法,南加大、微软让大模型炼成「火眼金睛」

当prompt策略遇上分治算法,南加大、微软让大模型炼成「火眼金睛」

当prompt策略遇上分治算法,南加大、微软让大模型炼成「火眼金睛」

近年来,大语言模型(LLMs)由于其通用的问题处理能力而引起了大量的关注。现有研究表明,适当的提示设计(prompt enginerring),例如思维链(Chain-of-Thoughts),可以解锁 LLM 在不同领域的强大能力。

来自主题: AI资讯
5157 点击    2024-03-11 17:28
怎么劝ChatGPT干活效果最好?我们尝试了100种方法,有图有真相

怎么劝ChatGPT干活效果最好?我们尝试了100种方法,有图有真相

怎么劝ChatGPT干活效果最好?我们尝试了100种方法,有图有真相

在 ChatGPT API 中,系统提示是一项很有亮点的功能,它允许开发人员控制 LLM 输出的「角色」,包括特殊规则和限制。系统提示中的命令比用户输入提示中的命令要有效得多,这让开发人员拥有了更大的发挥空间,而不是像现在使用 ChatGPT 网页应用程序和移动应用程序那样仅仅使用用户提示。

来自主题: AI技术研报
5328 点击    2024-03-10 16:13
田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型

田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型

田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型

3 月 6 日,田渊栋又一项研究出炉,这次,他们主攻 LLM 内存效率。除了田渊栋本人,还有来自加州理工学院、德克萨斯大学奥斯汀分校以及 CMU 的研究者。

来自主题: AI技术研报
10010 点击    2024-03-08 15:07
全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

半年多来,Meta 开源的 LLaMA 架构在 LLM 中经受了考验并大获成功(训练稳定、容易做 scaling)。

来自主题: AI技术研报
4152 点击    2024-03-07 14:01
进我的收藏夹吃灰吧:大模型加速超全指南来了

进我的收藏夹吃灰吧:大模型加速超全指南来了

进我的收藏夹吃灰吧:大模型加速超全指南来了

2023 年,大型语言模型(LLM)以其强大的生成、理解、推理等能力而持续受到高度关注。然而,训练和部署 LLM 非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速 LLM 预训练、微调和推理的方法。

来自主题: AI技术研报
3726 点击    2024-02-09 14:05